微软CTO斯科特专访:谷歌应与必应公平竞争 AI创作的内容无艺术感

划重点:

  • 1 斯科特称,必应的市场份额在增长,希望能够与谷歌在搜索领域公平竞争。
  • 2 AI工具创作的内容没有艺术感,只能作为辅助帮助人类完成内容创作。
  • 3 Microsoft 365 Copilot当前定价合理,微软有能力大幅降低人工智能服务的潜在成本。
  • 4 开源模型非常有趣,但大模型未来几年仍将会继续取得惊人的进步。

微软首席技术官凯文·斯科特(Kevin Scott)日前在Code Conference大会上与美国知名科技媒体人尼莱·帕特尔(Nilay Patel)进行了一场深度对话。双方讨论了诸多话题,涵盖必应与谷歌的搜索引擎之争,抢购和开发高端GPU的竞赛,以及艺术如何在人工智能时代生存等问题。

斯科特还控制着微软的整个GPU预算,对GPU的访问是目前人工智能世界的一个热门话题--特别是对英伟达H100 GPU的访问。斯科特敏锐地意识到对英伟达过度依赖的问题,尽管他在访谈中未证实任何关于微软目前在开发自有人工智能芯片的传言,但他明确表示,如果微软真的实现了这一飞跃,从英伟达转向AMD或其他芯片供应商对微软的客户而言不需要出现任何过度。以下为访谈内容摘要:

帕特尔:我可以和凯文无话不谈。他是一位创造者,有着明显的文艺复兴风格。在我们上台之前,我们还探讨了压接以太网电缆的问题。可以说,我们确实是无话不谈。但现在我们得谈谈人工智能。所以我想从一开始就问:在人工智能热潮开启时,微软就宣布把OpenAI整合到必应当中。还有微软上月推出的Copilots功能。当前的进展如何?把人工智能整合到必应当中是否增加了用户的使用量?必应的市场份额是否得到了提升?

斯科特:必应的市场份额确实得到了提升。虽然份额增加的很少,但肯定是以我们以前从未见过的方式增加的。我们从中学到了许多,也将会推出更多有趣的新产品。就像我们上周宣布DALL-E 3集成到必应聊天和其他一些产品当中,我们继续接受所有的反馈并尝试改进和迭代。这个团队行动非常迅速,所以这是一个非常有趣的平台,让我们可以进行一系列的实验。我们在必应上学到的一些东西可以直接转移到正在开发的其他Copilot产品上,甚至是现在发展一场迅猛的API业务上。

帕特尔:当我们正坐在西海岸进行这场对话时,谷歌在东海岸正在接受关于它可能如何不公平地在搜索领域进行垄断的反垄断诉讼。这场审判的一个大主题是:“好吧,微软是存在的。如果微软真想竞争,他们可以做到。我们在这方面非常擅长,微软做不到。”你认为必应现在真的在这场竞争中创造了优势吗?

斯科特:我认为必应是一款非常好的搜索引擎,也是我一直使用的搜索引擎。实话说,我已经在微软工作了六年半时间。当我刚到微软的时候,我仍然是谷歌搜索用户。后来,Edge浏览器和必应搜索引擎结合在了一起--因为团队不断努力,努力提高质量--足以让它们成为我日常使用的浏览器和搜索引擎组合。我们确实看到必应的市场份额在增长。

如果从事高质量的产品开发工作,就希望市场是公平的,这样才能竞争,我想这是所有人的诉求。我认为对大公司、小公司和试图突破的个人而言都是如此。不管是什么,公平是所有人的诉求。这是一件很复杂的事情。我不会对东海岸正在发生的事情发表评论。

帕特尔:能大致谈谈吗?

斯科特:我确实认为我们必须一直问自己什么是公平的,每个人如何参与。因为审判结束时的目标。我们都在创建这些大平台,无论是搜索平台,还是云平台。我们目前正在构建人工智能平台。我认为所有人都非常合理地想要确保他们能够以公平的方式使用这些平台来从事令人敬畏的工作。

帕特尔:我认为从传统观点来看,在人工智能支持的搜索体验中,当询问计算机一个问题,它只会告诉你一个聪明的答案,或者它会出去与其他人工智能系统对话,然后收集答案。这就是未来。我如果你只是泛泛地问人们,“搜索引擎应该做什么?”你得到的答案或许是:“提问问题,然后得到答案。”这真的改变了网络运作的理念。网络上的基本激励结构出现在搜索结果中。你有没有考虑过必应该怎么办?

斯科特:确实是这样。我认为,你想从搜索引擎和代理那里得到什么,要比提出问题然后得到答案要复杂得多。很多时候,你想要的是努力完成一项任务,而提问只是任务的一部分;但有时这只是开始;有时它在中间。就像你在为假期做计划,你会研究如何剪断正在改造的房间里的以太网电缆,不管它是什么。这可能包括购买一些东西或花一些时间阅读一份相当长的资料,因为你无法在与代理的一些小交易中获得你需要的信息。我认为目前还不清楚这种动态实际上会改变到什么程度。我认为特别的事情是每个人都担心引荐,这将会怎样……如果机器人给你所有的答案,推荐流量会发生什么变化?

帕特尔:创作新内容的动机是什么?这是我经常思考的问题。

斯科特:正确。是这样。

帕特尔:如果人工智能搜索产品可以为你总结我撰写的新手机入手测评文章,假如没有人会直接访问我撰写的内容,我有什么动力去撰写另一篇手机测评文章?

斯科特:我认为这不是任何人真正想要的东西。这当然也不是我个人想要的东西。我们需要一个健康的经济引擎,让所有人都参与进来。他们在创作内容,并从他们创作的内容中获得报酬。

现在,我认为薪酬结构和工作方式发展得非常快。在我看来,即使独立于人工智能,事务当前也在迅速变化--比如人们如何为他们创作的内容找到受众,如何将受众的参与转化为真正的商业模式。一方面,这很困难,因为其中一些漏斗很难调试。你真的不知道在某个将流量导向你网站的算法中发生了什么。

所以,我认为这是在关于人工智能代理将如何在世界中展示的对话中,我们目前可以拥有的机会之一。不一定要保留漏斗的确切外观,但要对它的机制保持透明,这样如果你要花费大量精力或试图用它来获得受众时,你至少要明白发生了什么。

帕特尔:另一方面,你也可以开发许多可以创造人工智能内容的工具。你会看到发布平台立即被人工智能内容淹没。就像是搜索引擎或训练的新模型被自己的人工智能垃圾邮件淹没,本质上会导致模型崩溃,进而质量大幅下降。你如何过滤掉这些内容?

斯科特:我们有一套越来越好的方法。至少在模型训练方面,确保用户不会获取到低质量的内容。

帕特尔:低质量的内容和人工智能产生的内容之间有什么差异?

斯科特:有时候,人工智能生成的内容很好,有时候则恰恰相反。我认为它没那么有趣。这是一个技术问题,无论你是否在训练过程中植入了导致一个训练过的模型随着时间的推移表现越来越差的东西。当然,我认为这是一个完全可以解决的技术问题。总的来说,我认为对内容消费者来说,不希望阅读一堆由人工智能生成的垃圾内容。我想没有人希望这样。内容创作是试图把一些有意义的东西放到这个世界上,传达一些你感觉到的或者你认为应该说的东西,然后试图与消费它的人建立某种联系。

对我而言,人工智能百分之百参与互动并不有趣。我不知道为什么我会想要消费一堆人工智能生成的内容,而不是你正在创作的内容。

帕特尔:我也有同感。

斯科特:我认为你几乎肯定会想使用人工智能工具来帮助创作内容。去年秋天当我们第一次使用人工智能工具时,我做的一件事是:我当时想:“我从十几岁开始就想写一本科幻小说,但我从来没有能够获得活化能。”当时,我尝试用GPT-4完成这件事,但它的使用方式很糟糕。你不能只是进入模型,然后说:“嘿,这是我想写的一部科幻小说的大纲。请写第一章。”

帕特尔:这就是今天的模式。内容创作者们并不担心GPT-4模型今天的功能。但GPT-5、GPT-6总有一天会出现,人工智能工具的功能也会越来越强大,是这样吧?

斯科特:正确。实际上我同意这一点。但我想说的是,人工智能工具的有用之处在于它能够帮助我保持思绪。所以我写了一本非虚构作品。我之前从未写过一本小说。因此,对人工智能工具来说,有用的事情不是实际创作内容,而是当我陷入困境时,帮助我摆脱困境,就像如果我有一个永远存在的写作伙伴或编辑,他们有无限的时间陪我。就像是:“好吧,我不知道该怎么给这个角色取名字。让我描述一下他们。给我起几个好玩的名字。”

因此,拥有一个人工智能创意伙伴帮助我解除障碍的程度真的令人惊讶。但还是由我来决定如何撰写这本书的情节。我认为作为一名读者,我肯定不会去阅读一部完全由人工智能生成的作品,也不会对它特别感兴趣。无论如何,这部作品都缺少人情味。

帕特尔:我们谈论的是艺术的本质,因此我不会完全使用人工智能工具。是这样吧?

斯科特:人工智能创作的内容没有艺术感。

帕特尔:人为什么要创作艺术?人工智能时刻为我们提供了一个机会,能够严肃地提出这个问题。因为互联网基本上就像“赚钱”。我认为这里存在分歧,因为我们的发布渠道被淹没了。我不知道我们能否会在接下来的10分钟内找到答案。

斯科特:是这样。

帕特尔:上次你和我谈话时,你对我说了一些我一直在想的话。你控制着微软的整个GPU预算--流入GPU的每一块钱。

斯科特:不仅仅是我。但我是解决艰难冲突的人。

帕特尔:这份工作对你来说是越来越容易了,还是越来越难了?

斯科特:现在比我们上次谈话的时候容易多了。因为一系列人工智能技术以一种令人惊讶的方式出现,而需求远远超过了整个生态系统所能提供的GPU容量。这就涉及到如何解决的问题。虽然GPU的供应仍然紧张,但每周都在好转。在这方面,我们的好消息比坏消息多。这让我解决这些非常棘手的冲突工作时不再那么可怕。

帕特尔:本周有一些报道。事实上,你之前在接受The information采访时提到,微软在需要更少计算的小型模型上投入了大量资金。随着时间的推移,你是否降低了计算成本?

斯科特:我想是的。我在这里要说的是,我们在后台聊过,当你对这些人工智能应用程序中的一个计费时,你最终会使用一个完整的投资组合模型。所以,你肯定想接触大模型,但是有一大堆原因。如果你能把人工智能应用程序需要做的一些工作卸载到更小的模型上,你可能会想要去做。

一些动机可能是成本。其中一些可能是潜伏期。其中一些原因可能是你希望在本地运行部分应用程序,因为你不想将敏感信息传输到云端。有许多原因可以解释为什么需要灵活性来设计已有的这些模型组合。另一方面,OpenAI在微软的帮助下,一直在努力优化大型模型。所以这不是一个非此即彼的问题。随着时间的推移,你希望两者都变得更便宜、更快、更高性能和更高质量。

帕特尔:Microsoft 365 Copilot是非常吸引人的功能增加,每名用户每月收费标准为30美元。这是一个疯狂的价格。我认为有些人会认为它非常有价值,但对于人工智能定价方案来说,这不是一个巨大的市场。你能把这个价格打下来吗?

斯科特:我认为我们可以大幅降低人工智能的潜在成本。OpenAI今年春天做的一件有趣的事情是,他们将开发者访问GPT-3.5 API的成本降低了90%。这几乎完全传递了一大堆性能优化。因此,一代又一代,芯片的性价比越来越高。我们用来优化模型的软件技术在不降低质量的情况下带来了大量的性能。然后,你有这些其他的技术,你对如何组成小型和大模型的应用程序也会有所帮助。所以,成本会下降。价格就是你为人们创造的价值。所以市场在某种程度上决定了价格。如果市场告诉我们这些东西的价格太高,那么价格就会下降。

帕特尔:这是第一次有人给此类服务定价。所以我想我们会找到答案的。你得到的信号有用吗?

斯科特:是的,我们现在得到了很好的价格信号。我认为你刚才说的事情很重要。生成式人工智能的商业化现在还处于早期阶段。所以你有一大堆事情需要平行解决。其中之一是如何给它们定价,这些服务的市场实际上是什么样的?没有理由给服务定价过高。你想要的是每个人都从中获得价值,尽可能多的人。所以我想,随着时间的推移,我们能够解决这个问题。

帕特尔:当我想到计算时--这些为客户运行工具的大型模型--显然,这是英伟达芯片的事,对吗?是H100 CPU的访问问题。英伟达占据了80%的市场份额。在微软的比例是多少?

斯科特:如果看看我们关键的人工智能工作负载,英伟达的GPU在我们的计算中占了很大一部分。

帕特尔:微软和英伟达的关系怎么样?两家公司之间的关系好吗?

斯科特:英伟达是我们最重要的合作伙伴之一。我们每天都和他们一起工作,做很多事情,我认为我们的关系非常好。

帕特尔:亚马逊、谷歌好像都在开发自己的芯片。几周前,我与AWS的首席执行官进行了交谈。因为他对英伟达有依赖感,因此听起来他并不兴奋。他们想转移到自己的系统。你在考虑定制芯片吗?你是否在考虑让自己的供应链多样化?

斯科特:回到之前的对话,如果你想确保自己能有竞争力地定价,你想确保开发中的产品的成本尽可能低,竞争当然是一件非常好的事情。我知道AMD首席执行官苏姿丰之前也参加了专访活动。我们正在与AMD一起做一些有趣的工作。我认为他们正在提供越来越引人注目的GPU产品,这些产品在未来几年的市场上将变得越来越重要。我认为已经有很多关于微软正在开发芯片的传闻。我们开发芯片已经有很长时间了。

帕特尔:你是证实了这些传闻吗?

斯科特:我没有证实任何事。但我要说的是,我们已经进行了多年相当可观的芯片投资。我们要做的事情是,利用我们现有的任何选择,确保我们做出建设这些系统的最佳选择。在过去的几年里,最好的选择是英伟达。

帕特尔:那是因为芯片中的处理能力,还是因为CUDA平台?因为别人和苏姿丰告诉我的是,实际上,我们需要做的是更高一级的优化。我们需要在PyTorch或训练、推理的级别进行优化。而且CUDA也不是我们真正需要的。英伟达的感知模型就是这样。你同意吗?微软依赖英伟达的芯片吗?或者你是否依赖于他们的软件基础设施?

斯科特:我认为整个行业从CUDA中受益匪浅,他们已经在CUDA上投资了一段时间。因此,如果你的企业是这样的,“我有一大堆不同的模型,我需要对它们进行性能调优”,PyTorch-CUDA组合是非常必要的。我们没有太多的模型可以优化。

因此,我们有一大堆其他工具,如Triton,这是OpenAI开发的开源工具,还有一大堆其他东西可以帮助你基本上做到你所说的,这是抽象的高级,这样你就可以为你的推理和训练工作负载开发高性能的内核,从而更容易的选择使用的硬件。要记住的是,即使只是英伟达,你也有多个不同的硬件SKU,你可以在任何时间点部署到生产中,并且你希望能够轻松地跨所有这些东西进行优化。

帕特尔:我之前问苏姿丰:“对微软而言,从英伟达转向AMD有多容易?”她告诉我,“你应该问斯科特这个问题。”今天你在这里参加访谈。如果微软现在需要切换到AMD,会有多容易?微软和AMD合作过什么吗?将来会有多容易呢?

斯科特:如果你现在是一位API客户--就像你正在使用Azure OpenAI API或使用OpenAI的API--你不必考虑底层硬件是什么。这是API的问题。这是在API基础上构建人工智能应用的最简单可行的方法。

硬件不是小事,都是大投资。如果这是你构建人工智能应用的方式,你就不必在意。有很多人并没有在这些API的基础上进行构建,他们确实需要关注这些API。然后,这是他们每个人的选择。但对我们来说,这是一个庞大复杂的软件堆栈,客户看到的唯一部分是API接口。

帕特尔:很多人让我问你的另一个主题是开源。很明显,微软在自己的模型上投入了巨额资金。OpenAI有GPT。围绕这一点有很多行动。另一方面,有一堆开源模型真的很令人兴奋。你谈到了在人们的笔记本电脑上本地运行模型。现在这些大模型周围是真正的护城河吗?或者开源真的会随着时间的推移来破坏它?

斯科特:是的,我不知道把模型当成护城河是否重要。因此,我们已经做了一些事情,并未这些模型作为平台铺平了道路,这些都是超级资本密集型的。我认为,即使你在软件上取得了一系列突破,它们也不会降低资本密集度。因此,无论是微软还是其他公司,所有这些资本强度都是必须发生的事情,因为这在很大程度上与硬件有关,而不仅仅是软件,也不仅仅是你可以在桌面上放置什么--你必须有非常大的硬件集群来训练这些模型。仅仅靠着通过分散一些独立的软件工作很难达到规模化。

所以,我认为开源的东西非常有趣,我认为它会帮助每个人。我们已经开源了叫做Phi的模型,上周它在Hugging Face上非常流行。一系列让我们兴奋的开源创新。但我认为大模型在未来几年仍将继续取得惊人的进步。(无忌)